港大TreeSynth破局!数据合成从“乱撒种”到“精准填色”
香港大学和香港中文大学的研究团队,最近搞出了个叫TreeSynth的东西,这玩意儿专门解决AI训练的大难题,没数据的时候咋提升模型表现,或者现有数据质量不行、分布不均的问题。
llm treesynth treesynth破局 gsm8 2025-10-06 15:52 4
香港大学和香港中文大学的研究团队,最近搞出了个叫TreeSynth的东西,这玩意儿专门解决AI训练的大难题,没数据的时候咋提升模型表现,或者现有数据质量不行、分布不均的问题。
llm treesynth treesynth破局 gsm8 2025-10-06 15:52 4
来自法国的Pathway 和我们之前介绍的Bytewax的架构设计非常类似,基于Rust 引擎,并由differential Dataflow驱动,来实现:真正统一的批处理与流处理——在两种模式下使用完全相同的代码。
rag llm sharepoint pathway pyt 2025-10-05 12:50 3
别觉得这是小打小闹,懂行的都知道,现在大语言模型推理最头疼的就是“不确定性”,明明输入一模一样的提示,输出却可能差老远。
上线才三天,Sora一举登顶App Store全美榜首!Sora 2带着逆天「客串」功能彻底杀疯,人物细节逼真到让人瞳孔地震。最强版Sora 2 Pro同步上线,一次可拍15秒好莱坞级大片。
JAX生态这两年在LLM训练这块追赶得挺快。PyTorch虽然还是主流但JAX在并行计算、TPU加速和API组合性上确实有些独特的优势。Google今天放出了Tunix这个库,专门做LLM的后训练——微调、强化学习、知识蒸馏这些都能搞。
在人工智能以前所未有的速度席卷全球之际,一个根本性的矛盾正日益凸显:科技巨头们正准备投入数万亿美元,加速一场基于我们尚不完全理解的技术的竞赛。当前的大型语言模型(LLM)如同一个深邃的“黑箱”,其内部运作逻辑的模糊性,已成为阻碍人工智能在医疗、金融等高风险领域
研究 人工智能 llm transformer 幼雏 2025-10-03 20:43 4
前几天我写了一篇文章,介绍了图灵奖获得者,强化学习之父Richard Sutton最新采访观点,老爷子认为当前热门的大语言模型是“死路一条”。他的核心观点是,LLMs 的架构从根本上缺乏从实际互动(on-the-job)中持续学习的能力。无论我们如何扩大其规模
llm karpathy andrej andrejkarp 2025-10-02 08:06 7
平时用ChatGPT问“周末去哪玩”,你以为它直接看懂了这句话?其实不是,它看到的是拆成好几段的“Token”,比如['周末','去','哪玩','?']。
当全世界都在狂热追逐大模型时,强化学习之父、图灵奖得主Richard Sutton却直言:大语言模型是「死胡同」。在他看来,真正的智能必须源于经验学习,而不是模仿人类语言的「预测游戏」。这番话无异于当头一棒,让人重新思考:我们追逐的所谓智能,究竟是幻影,还是通
这是我第一次认真进行“Vibecoding”,因为我一直认为 LLM 是特定任务的好助手,需要相当多的人类监督,所以我通常避免大量生成;通常我会在某个模块范围内使用 LLM 并进行相对测试。这是我第一次尝试一个相当大的项目,目标是完全用 LLM 编写它。
代码 llm coding vibe vibecoding 2025-09-29 13:23 4
命名实体识别(NER)是自然语言处理(NLP)领域的一项基础技术,用于从非结构化文本中自动提取具有特定含义的实体,如人名、地点、组织和日期等。随着大语言模型(LLM)的兴起,NER 不仅在传统搜索系统中发挥作用,还广泛应用于知识库构建、知识图谱生成和智能问答。
在 LLM 能听懂你的提问、AIGC 能生成符合需求的文案背后,都离不开一项关键技术 ——NLP(自然语言处理)。它就像人类与人工智能之间的 “翻译官”,让 AI 能理解人类语言的含义,也能生成人类易懂的内容,是很多智能应用的核心基础。
得先搞懂:模型的“脑子”,就那么大——GPT-2装3万个“小砖块”,GPT-3装5万,现在最牛的模型也就10万左右。可英语有几十万单词,中文有几百万,根本装不下所有词。
随着现代集成电路复杂程度的不断提升,硬件工程师需要在从设计到制造的完整工作流程中投入更多精力。该工作流程涉及大量迭代过程,不仅耗费大量人力,还容易出现差错。因此,业界迫切需要更高效的电子设计自动化(EDA)解决方案,以加快硬件开发速度。
然而,对于外卖平台而言,保持菜单更新是一项永无止境的挑战。餐厅会不断更新菜品、价格和特价活动,而大规模地手动完成所有这些工作既昂贵又缓慢。
Google DeepMind 近日发表了一篇论文,详细介绍了其生成式视频模型 Veo 3 所展现出的“零样本”学习与推理能力,并提出了一个与大型语言模型中的“思维链”相对应的核心概念——“帧链”(CoF,Chain-of-Frames)。研究团队通过对超过
当所有人还在为参数内卷时,智能体真正的决胜点已经转向了速度与成本。浪潮信息用两款AI服务器直接给出了答案:一个将token生成速度干到10毫秒以内,一个把每百万token成本打到1元时代。
根据商业和技术洞察公司Gartner近期发布的预测,全球对人工智能(AI)的支出预计将在2025年达到近1.5万亿美元,较2024年大幅增长50%;到2026年,这一数字有望攀升至2万亿美元,实现37%的进一步提升。
高效的内存管理:通过 PagedAttention 算法, vLLM 实现了对 KV 缓存的高效管理,减少了内存浪费,优化了模型的运行效率。高吞吐量: vLLM 支持异步处理和连续批处理请求,显著提高了模型推理的吞吐量,加速了文本生成和处理速度。易用性: vL
数百万人仍在向谷歌寻求答案。但也有越来越多的人直接向 ChatGPT、Claude 和 Perplexity 等人工智能助手寻求答案并完成任务。